Nota de editor: dada a extensão do presente texto, o mesmo é publicado em 3 partes, hoje a terceira e última parte.
Seleção e tradução de Júlio Marques Mota
8 min de leitura
Texto 21 – Onde está o limite? É um limite absurdo: rumo a um quadro para utilizações aceitáveis de IA em avaliações (3/3)
Por Thomas Corbin, Philip Dawson, Kelli Nicola-Richmond e Helen Partridge
Publicado por
em 24 de Janeiro de 2025 (original aqui)
(Conclusão)
Discussão
Este estudo procurou explorar como é que educadores e estudantes conceptualizam e lidam com a utilização da IA generativa na avaliação. As nossas análises revelam que essas dificuldades não dizem respeito apenas à compreensão ou gestão de uma nova tecnologia; elas expõem questões mais profundas sobre como o ensino superior define e mantém os seus limites num cenário tecnologicamente em evolução.
O trabalho de estabelecer limites refere-se aos processos pelos quais indivíduos e instituições criam, negoceiam e sustentam ativamente distinções que definem a legitimidade dentro de um determinado espaço (Langley et al., 2019). Os primeiros trabalhos de Gieryn (1983, 1999) sobre o trabalho de estabelecer limites demonstraram como os cientistas delimitam “o que conta como ciência” em resposta a desafios vindos da pseudociência, da política ou de outros domínios concorrentes (Gieryn, 1983, 1999). Desde então, esse conceito tem sido aplicado em diversos campos para examinar como a legitimidade é construída, co-construída entre indivíduos e instituições, gerida e contestada. Esses campos incluem a política (Solhjell e Klatran, 2024), a IA generativa (GenAI) em debates no ambiente de trabalho (Lombi e Rossero, 2024) e as práticas educacionais (Ylijoki, 2013; Risan, 2022; Eastgate et al., 2023). Aplicar o trabalho de estabelecer limites aos nossos dados permite-nos perceber as formas pelas quais os participantes do nosso estudo se empenharam em trabalho retórico, prático e emocional para teorizar e definir “o que conta como uso apropriado” da IA.
Historicamente, os educadores têm-se apoiado em distinções amplamente simples e consensuais entre práticas aceitáveis e inaceitáveis, como a linha que separa o trabalho autêntico do estudante e a trapaça por contrato (Dawson, 2022). As fronteiras académicas tradicionais desde há muito tempo que oferecem um marco reconhecível — embora, por vezes, debatido — para que professores e alunos julguem o que conta como um trabalho aceitável. Por exemplo, a expectativa de que os estudantes produzam trabalhos originais sem assistência externa tem, historicamente, servido como um limite claro, reforçado por políticas contra o plágio e por formatos de avaliação como provas de consulta fechada. No entanto, as tecnologias de IA perturbam essas fronteiras tradicionais ao integrarem-se em todo o processo dos estudantes, desafiando a capacidade dos educadores de distinguir o esforço legítimo da produção gerada por IA (Dawson et al., 2024; Jensen et al., 2024). As nossas análises mostram que os educadores estão profundamente envolvidos num trabalho de estabelecer limites enquanto navegam pelas novas ambiguidades da IA generativa na avaliação. Um participante descreveu o impacto emocional dessa disrupção: “Estive extremamente ansioso o ano inteiro ao corrigir trabalhos. Tenho-me questionado o tempo todo” (A02). Esta ansiedade reflete mais do que incerteza de procedimento; ela revela uma crise na capacidade dos educadores de realizar esse trabalho de delimitação num contexto em que as fronteiras antes estabelecidas colapsam diante das mudanças tecnológicas. As respostas emocionais dos educadores — sentirem-se “arrasados” e viverem “traumas éticos” — destacam o peso desse trabalho de delimitação nesse contexto. O seu trabalho envolve não apenas a aplicação das regras institucionais, mas também a manutenção de sua identidade profissional como árbitros da legitimidade académica.
Os estudantes no nosso estudo também se envolveram no trabalho de estabelecer limites, embora enfrentando desafios diferentes. Frequentemente, os alunos construíam as suas próprias estruturas para determinar a utilização apropriada de IA, mesmo quando recebiam visões alternativas – e até conflituantes – dos seus professores. Muitos recorriam a analogias com tecnologias já existentes, como o Grammarly ou corretores ortográficos, para justificar as suas práticas. Como explicou um estudante: “Pessoalmente, acho que se alguém utilizar a IA generativa para ajudar a entender o assunto, tudo bem, porque não é muito diferente de fazer a sua própria pesquisa” (P07). Essas analogias refletem uma tentativa de normalizar a utilização de IA dentro de limites familiares, uma estratégia retórica frequentemente empregada no trabalho de estabelecer limites para reconciliar novas práticas com normas já estabelecidas (Lamont e Molnár, 2002). De forma semelhante a outras profissões, nas quais os profissionais recorrem ao trabalho de estabelecer limites para lidar com novas normas em resposta a tecnologias emergentes (por exemplo, Christensen e Treas 2024), o trabalho de estabelecer limites dos estudantes ilustra as tensões entre o julgamento pessoal e as expectativas coletivas.
De forma mais geral , os nossos resultados destacam que os estudantes estão atualmente empenhados num trabalho frequente e individual de definição de limites, ao tomarem decisões caso a caso sobre o uso de IA nas suas tarefas. Como afirmou um estudante: “De toda a maneira é necessário adivinharmos qual é a perspetiva do nosso professor sobre IA e, então, decidir o quanto se vai utilizar ou não” (P02). Este processo impõe uma carga cognitiva e emocional significativa aos estudantes, pois a questão de “onde está o limite” torna-se uma decisão de alto risco, moldada não apenas pela ambiguidade institucional, mas também por raciocínios éticos e avaliação de riscos. É necessário concluir, de forma crítica, que essa decisão é, ao menos frequentemente, externalizada para os estudantes pela própria estrutura das avaliações. Ou seja, devido à natureza da ambiguidade, cabe, em última instância, aos estudantes tomarem a decisão — muitas vezes com consequências educacionais significativas — sobre se devem ou não utilizar a IA.
Para retirar essa decisão difícil dos ombros dos estudantes, a teoria do trabalho de estabelecimento de limites faz a sugestão talvez inesperada de que não devemos entender o principal desafio da IA como sendo o de esclarecer os limites para os estudantes e, em seguida, fazer cumprir esses limites. Isso é inesperado porque parece ir contra tanto a intuição como a corrente predominante de reações à IA generativa no ensino superior, onde o foco costuma estar em comunicar regras claras aos estudantes sobre o que é permitido e o que não é. Em vez disso, o trabalho de estabelecimento de limites sugere eliminar a necessidade de que os estudantes se envolvam nesse tipo de trabalho.
O trabalho de estabelecimento de limites sugere que, na medida do possível, a concepção de avaliação deve eliminar a ambiguidade GenAI, incorporando expectativas claras e acionáveis para a utilização da IA nas próprias tarefas. Quando as avaliações são concebidas com este objectivo em mente, o ónus de tomar essas decisões já não recai sobre os estudantes. É provável que isso não apenas reduza a carga cognitiva e a ansiedade, mas também ajude a garantir que as decisões sobre o uso da IA sejam pedagogicamente sólidas, apoiando a integridade dos resultados de aprendizagem em vez de deixá-los à interpretação individual dos alunos. No entanto, embora isso possa potencialmente melhorar a situação dos estudantes, é menos óbvio o que melhoraria a situação dos professores. Isso leva-nos a sugerir o que chamamos de Modelo Dinâmico de Limites Educacionais (DEBM), uma estrutura inicial emergente que surge a partir da nossa compreensão de que os desafios trazidos pela IA Gen na educação são, essencialmente, desafios de negociação e gestão de limites.
Os nossos resultados revelam que educadores e estudantes não estão apenas a navegar por linhas ténues entre os usos legítimos e ilegítimos da IA, mas também a lidar com as exigências emocionais e cognitivas de interpretar e aplicar constantemente esses limites. O DEBM oferece tanto uma ferramenta de diagnóstico ampla como uma estrutura prática para o desenvolvimento de limites de uso da IA no ensino superior, propondo uma forma de conceptualizar e enfrentar esses desafios por meio de três dimensões interconectadas: Limites Integrados na Avaliação, Flexibilidade Contextual e Suporte Emocional e Cognitivo (ver Figura 1).
O quadro de análise começa com Limites Incorporados na Avaliação (Assessment-Embedded Boundaries), que respondem diretamente à carga cognitiva e à ambiguidade que estudantes e educadores enfrentam atualmente. Em particular, esse elemento do quadro de análise tem como objetivo esclarecer limites para os estudantes. Em vez de depender de regras ou…
Figura 1. O modelo dinâmico de limites educativos
diretrizes, esta dimensão enfatiza o desenho de avaliações nas quais os limites são claros e inerentes à própria tarefa. Por exemplo, optar por uma prova oral em vez de uma prova escrita estabelece, de forma intrínseca, que a comunicação oral — e não a fluência escrita — é a competência que está a ser avaliada. Ao incorporar os limites na estrutura da tarefa, essa abordagem elimina a necessidade de tomadas de decisão improvisadas, permitindo que os alunos se concentrem em demonstrar a sua aprendizagem de maneira alinhada com os objetivos da avaliação.
Os nossos dados mostram que os próprios alunos estão a traçar os seus próprios limites, o que é claramente problemático por vários motivos — especialmente no que diz respeito à validade da avaliação. Por isso, o primeiro ponto do nosso quadro de análise procura eliminar esse desafio. Por outras palavras, este elemento do quadro de análise baseia-se na ideia, aparentemente simples, de que os alunos não precisam de criar os seus próprios limites quando esses já estão incorporados na estrutura da tarefa.
Para alcançar isso, o DEBM apresenta os conceitos de “permitir” e “proibir” o uso de IA como questões de conceção estrutural, e não como imposições externas de regras. “Permitir” o uso de IA significa integrá-la intencionalmente no processo de aprendizagem, tornando o seu uso claro e relevante para a obtenção dos resultados educacionais. Por outro lado, “proibir” o uso de IA significa estruturar avaliações de forma que a dependência inadequada da IA comprometa o propósito da tarefa — como, por exemplo, em exames orais. Essas mudanças estruturais orientam o comportamento de forma intrínseca, reduzindo a necessidade de regras explícitas e promovendo clareza tanto para educadores quanto para alunos.
A Flexibilidade Contextual destaca que o que é considerado como utilização apropriada de IA não é universal, mas varia entre disciplinas, tipos de avaliação e objetivos de aprendizagem. O DEBM questiona a hipótese de que os limites do uso de IA podem ser definidos por meio de políticas institucionais generalizadas, realçando, em vez disso, que as utilizações apropriadas devem ser determinados no nível de avaliações específicas e expectativas disciplinares.
Os professores, no nosso estudo apontaram consistentemente para a tensão entre as normas disciplinares e a necessidade de diretrizes mais claras para a utilização de IA. Um deles observou que “cada curso teria que ter as suas próprias diretrizes com base em como realmente vai usá-la” (A11). Por exemplo, enquanto a análise de dados assistida por IA pode estar alinhada com práticas profissionais em negócios e engenharia, ela pode contradizer os principais resultados de aprendizagem em cursos de estatística, onde o cálculo manual é central. Essas variações significam que o que constitui uma utilização apropriada de IA não pode ser determinado de forma significativa fora de seu contexto disciplinar e de avaliação académica. Ao esclarecer onde e porque é que os limites de utilização de IA permanecem incertos, a Flexibilidade Contextual ajuda a localizar as áreas que requerem maior intervenção. Essa função de diagnóstico garante que os esforços para estruturar os limites de utilização de IA (Limites Incorporados na Avaliação) e de apoio aos professores (Apoio Emocional e Cognitivo, discutido abaixo) sejam direcionados para as fontes reais de dificuldade, em vez de desafios presumidos.
Por fim, o Apoio Emocional e Cognitivo aborda o impacto do trabalho de definição de limites sobre os educadores, que frequentemente carregam o fardo de aplicar diretrizes pouco claras ou inconsistentes. O DEBM destaca a importância de mecanismos institucionais de apoio, como oficinas de desenvolvimento profissional, repositórios compartilhados de exemplos de avaliações e programas de mentalização entre pares. Esses recursos não apenas fornecem aos educadores as ferramentas necessárias para integrar a IA de forma eficaz, mas também promovem um sentido de colaboração e responsabilidade compartilhada. Ao reduzir a carga emocional de lidar com limites ambíguos, essa dimensão permite que os educadores se concentrem em promover a aprendizagem, em vez de apenas fiscalizar o uso da IA.
O DEBM não é proposto como uma solução final, completa ou estática, mas sim como uma abordagem inicial, ampla e ao mesmo tempo dinâmica para compreender e enfrentar os desafios do uso da IA na educação. Fundamentado na teoria do trabalho de estabelecimento de limites, procura equilibrar clareza, adaptabilidade e apoio, permitindo que as instituições educacionais enfrentem as complexidades da integração de ferramentas de IA de maneira que mantenham a integridade académica e promovam uma aprendizagem significativa.
Conclusão
Este estudo revela como é que a aparentemente simples pergunta “onde está o limite?” na utilização da IA oculta desafios profundos para a prática e a identidade educacional. Por meio da lente da teoria das fronteiras sociais, podemos entender a busca persistente dos participantes por limites claros não apenas como uma preocupação prática, mas como um trabalho fundamental para manter a legitimidade educacional diante da disrupção tecnológica. A metáfora do “limite”, que emergiu de forma orgânica entre os participantes, capta tanto o apelo como a impossibilidade de demarcações claras num cenário educacional cada vez mais mediado pela IA.
O conceito de limites ou fronteiras (“boundaries”) é particularmente valioso porque ilumina as formas pelas quais preocupações aparentemente individuais — como a incerteza de um professor sobre avaliação ou a ansiedade de um estudante em relação à utilização de IA — estão conectadas com processos institucionais e culturais mais amplos. As respostas emocionais dos educadores — a descreverem-se como “arrasados” ou a viverem com “traumas éticos” — revelam como a IA desestabiliza normas estabelecidas e identidades profissionais. Essas respostas não são apenas reações a uma nova ferramenta, mas sim processos de construção de limites que procuram reconciliar expectativas conflituantes de justiça, rigor e progresso tecnológico. Da mesma forma, quando os estudantes criam analogias com ferramentas como o Grammarly ou recorrem a raciocínios morais sobre o papel da IA, eles revelam como a ausência de orientações institucionais claras os obriga a formas sofisticadas — porém não apoiadas — de trabalho de delimitação. Esse trabalho, tanto cognitivo como emocional, destaca a inadequação das estruturas atuais para lidar com as realidades da educação mediada pela IA. Ao enquadrar os desafios da IA na educação como um trabalho de estabelecimento de limites (boundary work), este estudo oferece uma lente crítica para a pesquisa sobre IA generativa e avaliação. Ele desloca o foco dos debates estreitos sobre permissividade ou proibição para os processos mais amplos de negociação e redefinição que sustentam a legitimidade educacional.
O impacto emocional e profissional causado por limites incertos sugere que o que aparenta ser uma simples ansiedade em relação às novas tecnologias, na verdade, reflete uma crise mais profunda na identidade e autoridade educativa. Quando professores relatam estarem a sentir-se “arrasados” ou a viverem “traumas éticos”, estão a expressar como a IA desestabiliza não apenas as práticas de avaliação, mas também compreensões fundamentais sobre a legitimidade da educação. Da mesma forma, quando estudantes constroem estruturas pessoais elaboradas para o uso da IA, eles realizam um trabalho sofisticado de definição de limites que revela tanto a insuficiência de diretrizes simples quanto a profunda conexão entre limites e a própria aprendizagem.
As variações disciplinares na forma como os participantes constroem e mantêm limites revelam a natureza profundamente contextual da legitimidade educacional. O que é considerado como uma utilização apropriada da IA varia não apenas entre disciplinas, mas também entre diferentes tipos de tarefas e resultados de aprendizagem. Isso sugere que qualquer estrutura para gerir o uso da IA deve ser suficientemente dinâmica para acomodar essas variações, ao mesmo tempo em que mantém padrões educacionais significativos.
O Modelo Dinâmico de Limites Educacionais que propomos oferece um caminho a seguir, sugerindo que as fronteiras educacionais devem ser compreendidas não como linhas fixas, mas como espaços negociados que evoluem de acordo com a capacidade tecnológica e as necessidades educacionais. Essa estrutura possui implicações práticas imediatas, ao mesmo tempo que aponta para questões mais profundas sobre a natureza da aprendizagem e da avaliação num mundo impulsionado pela IA. Mais importante ainda, ela sugere que apoiar o bem-estar emocional e profissional de professores e alunos não é algo periférico, mas central para manter a integridade educacional diante das mudanças tecnológicas.
O trabalho de estabelecimento de limites é difícil, principalmente por insistir que nenhuma solução universal será adequada. Trabalhos futuros deverão — e certamente continuarão a — examinar como as comunidades educacionais negoceiam esses limites à medida que as capacidades da IA e as soluções para o ensino superior evoluirem. No entanto, o que emerge da nossa análise é que o desafio da IA na educação, embora sem dúvida envolva questões de fronteiras, vai além de simples perguntas sobre permissibilidade ou proibição.
Os autores
Thomas Corbin é investigador no centro de Investigação em Avaliação e Aprendizagem Digital (CRADLE) na Universidade de Deakin (Austrália). A sua investigação concentra-se em GenAI, avaliação e filosofia da educação.
Phillip Dawson é professor e codiretor do centro de Investigação em Avaliação e Aprendizagem Digital (CRADLE) na Universidade de Deakin (Austrália). A sua investigação concentra-se em avaliação, feedback e trapaça.
Kelli Nicola-Richmond é professora associada e Diretora Associada da Escola, Ensino e aprendizagem da Escola de Saúde e Desenvolvimento Social na Universidade de Deakin (Austrália). A sua investigação centra-se no julgamento avaliativo, nos exames e trapaça, longo COVID e mau desempenho do aluno e falha no estágio clínico.
Helen Partridge é professora e pró-Vice-Reitora de ensino e aprendizagem na Universidade de Deakin (Austrália). A sua investigação centra-se na interacção entre Informação, Tecnologia e aprendizagem.



